72 research outputs found
Depth Image Processing for Obstacle Avoidance of an Autonomous VTOL UAV
We describe a new approach for stereo-based obstacle avoidance. This method analyzes the images of a stereo camera in realtime and searches for a safe target point that can be reached without collision.
The obstacle avoidance system is used by our unmanned helicopter ARTIS (Autonomous Rotorcraft Testbed for Intelligent Systems) and its simulation environment. It is optimized for this UAV, but not limited to aircraft systems
Combining Occupancy Grids with a Polygonal Obstacle World Model for Autonomous Flights
This chapter presents a mapping process that can be applied to autonomous systems for obstacle avoidance and trajectory planning. It is an improvement over commonly applied obstacle mapping techniques, such as occupancy grids. Problems encountered in large outdoor scenarios are tackled and a compressed map that can be sent on low-bandwidth networks is produced. The approach is real-time capable and works in full 3-D environments. The
efficiency of the proposed approach is demonstrated under real operational conditions on an unmanned aerial vehicle using stereo vision for distance measurement
Onboard Mission Management for a VTOL UAV Using Sequence and Supervisory Control
This chapter addresses the challenges of onboard mission management for small, low flying UAVs in order to reduce their dependency on reliable remote control. The system presented and tested onboard an unmanned aerial vehicle (UAV) provides levels of autonomy, scalable at runtime either by the operator or due to the absence of a data link. This way, it is a feasible approach towards autonomous flight guidance within the low-altitude domain (e.g. urban areas) where unpredictable events are likely to require onboard decision-making. In the following sections the problems of onboard mission management, embedded high level architectures and their implementation issues are discussed. The design of a onboard Mission Management System for a test platform with vertical take-off and landing (VTOL) capabilities is presented, followed by discussions of the implemented system and a research outlook
Stereobildbasierte Kollisionsvermeidung fĂŒr einen unbemannten Kleinhubschrauber
Die Arbeit beschreibt die Entwicklung einer Strategie zur Kollisionsvermeidung unter Verwendung einer Stereokamera. Sie ermöglicht die dreidimensionale Rekonstruktion der Umgebung, damit die Messung von Entfernungen und letztendlich die Erkennung von Hindernissen und hindernisfreien Bereichen. Das implementierte Verfahren wird in einer Simulationsumgebung getestet, die die originale Hardware des Hubschraubers verwendet und dessen Flugeigenschaften nachbildet. So kann fĂŒr einen realen Flug abgeschĂ€tzt werden, wie sich der Helikopter bei Hindernissen verhĂ€lt und inwieweit Kollisionen vermieden werden können
KI als SchlĂŒsseltechnologie fĂŒr Mustererkennung und Situationsbewusstsein - Wie erhĂ€lt das Fahrzeug das erforderliche Wissen?
Zur Umfeldwahrnehmung mit Kameras und anderen Sensoren werden intelligente und selbstlernende Verfahren als SchlĂŒsseltechnologie angesehen. Entsprechende Trainingsdaten vorausgesetzt, können mit Deep Learning und Neuronalen Netzen Fahrzeuge und andere Verkehrsobjekte bspw. in Kamerabildern detektiert, verortet und prĂ€diziert - sowie in einen verkehrlichen Gesamtkontext gebracht werden. Zudem ist dies eine Grundlage zur Bestimmung der Eigenposition relativ zum Verkehrsgeschehen und unabhĂ€ngig von störanfĂ€lligen Quellen wie Satellitennavigation.
Der Vortrag ist ein Auszug aus den aktuellen Arbeiten des DLR im Rahmen der KI-Projektfamilie aus der VDA-Leitinitiative Automatisiertes Fahren. Thematisiert wird die Forschungsfrage, wie KI-Systeme effizient und möglichst vollstĂ€ndig mit dem erforderlichen Wissen ausgestattet werden können, um sie zur Umfeldwahrnehmung fĂŒr das automatisierte Fahren einsetzen zu können
Optische Navigationsverfahren in groĂskalierten Umgebungen
Diese Arbeit betrachtet Alternativen zu satellitengestĂŒtzter Navigation als ErgĂ€nzung zu gekoppeltem GNSS/INS. Vorgestellt wird ein optisch gestĂŒtztes Lokalisierungsverfahren fĂŒr den Einsatz bei kleineren bzw. unbemannten Luftfahrzeugen in unbekannten Umgebungen und bei FlĂŒgen ĂŒber gröĂere Entfernungen im Kilometerbereich. Technischer Kern ist ein kamerabasiertes Verfahren zur Lokalisierung und Kartierung (SLAM). Hierbei werden aus Bildinhalten 3D-GelĂ€ndemerkmale extrahiert. Durch Georeferenzierung aus vorhergehenden Positionsdaten können diese dann fĂŒr die weitere Lokalisierung der Kamera und damit des Luftfahrzeugs verwendet werden. Zur Erhöhung der Genauigkeit werden die Informationen der Kamerabilder mit Entfernungsmessungen kombiniert. Geeignet sind hier insbesondere Sensoren wie Lidar und Radar. Die Anwendbarkeit des Ansatzes wird anhand von Daten aus Flugversuchen demonstriert - gezeigt werden Flugversuche mit bemannten und unbemannten VersuchstrĂ€gern. Die relative optische Navigation erreicht eine Ungenauigkeit von etwa 1-6% Fehler bezogen auf die geflogene Strecke, was in etwa in der GröĂenordnung der verwendeten Entfernungssensoren liegt. DarĂŒber hinaus geht der Artikel auf spezielle Probleme der Sensorik sowie auf die Grenzen der Anwendbarkeit optischer Navigationsverfahren mit Luftfahrzeugen ein
Optisch gestĂŒtzte Sensorfusion zur Navigation mit FlĂ€chenflugzeugen (OgN 1)
Zielrichtung dieser Studie ist die Untersuchung von optisch gestĂŒtzten Navigationsverfahren fĂŒr Anwendungen mit unbemannten FlĂ€chenflugzeugen. Dazu werden zunĂ€chst typische Missionsprofile (u.a. Flughöhen, Geschwindigkeiten, Umgebungsbedingungen, mögliche Voraussetzungen und EinschrĂ€nkungen) fĂŒr LFZ <150 kg MTOW betrachtet und bestimmt. FĂŒr die herausgearbeiteten Szenarien wird dann erarbeitet, inwieweit LFZ-seitig Sensordaten sinnvoll zu verarbeiten sind, bzw. welche Anforderungen an die Sensoren fĂŒr eine erfolgversprechende optisch gestĂŒtzte Navigation existieren. Der Fokus liegt hierbei auf der Beurteilung von Kamerasystemen und Bildverarbeitungsverfahren. Darauf basierend werden Demonstrationsszenarien erstellt, mit denen existierende oder noch zu entwickelnde Algorithmen und Prinzipien evaluiert werden können. AbschlieĂend wird ein gewĂ€hltes Demonstrationsszenario im Flugversuch umgesetzt, bei dem Sensordaten (Kamera, IMU, GNSS) aufgenommen und mit Hilfe der existierenden Algorithmen evaluiert werden. Dabei wird die Eignung dieser Daten zur Navigation, insbesondere unter BerĂŒcksichtigung von GNSS-SignalausfĂ€llen und der Driftkompensation mit optischen Verfahren, untersucht. Das Ergebnis sind optisch bestimmte Trajektorien und deren Bewertung
Optische Verfahren in der UAV-FĂŒhrung
Der Vortrag fasst die AktivitĂ€ten im Bereich der optischen Navigation und Gefahrenerkennung sowie sonstigen Bildverarbeitungsverfahren zusammen, die von 2004-2009 in Zusammenhang mit dem Hubschraubersystem ARTIS am DLR-Institut fĂŒr Flugsystemtechnik durchgefĂŒhrt wurden
Optisch gestĂŒtzte Sensorfusion zur Navigation mit FlĂ€chenflugzeugen 2 (OgN-2)
Die vorliegende Studie basiert auf den Erkenntnissen der VorgĂ€ngerstudie âOgNâ (DLR-IB 111-2014/47), welche im Auftrag der WTD61 bearbeitet wurde. Basierend auf der dort erfolgten Evaluation zur Ăbertragbarkeit bestehender optischer Navigationsmethoden auf FlĂ€chenflugzeuge erfolgen in dieser Studie weitere Versuche, jedoch mit verbesserter Konfiguration. Die wesentlichen Studieninhalte sind die Integration eines Radarhöhensensors in Hard- und Software, die Anpassung des Kamerasystems fĂŒr eine bessere Bestimmung der Eigenbewegung, sowie die DurchfĂŒhrung von Flugversuchen mit den neuen Sensoren und der dafĂŒr angepassten Software. VersuchstrĂ€ger ist das unbemannte Flugzeug âPrometheusâ (30 kg MTOW) des DLR-Instituts fĂŒr Flugsystemtechnik. Bei den Versuchen werden Sensordaten (GNSS, IMU, Magnetometer, Kamera, Radar) aufgezeichnet und anschlieĂend mit Hilfe der speziell fĂŒr diesen Zweck optimierten Navigationsalgorithmen evaluiert. Fokus ist die Bewertung der Umgebungssensoren Kamera und Radar zur Kompensation von GNSS-SignalausfĂ€llen wĂ€hrend des Fluges
SLAM und Optische Navigation fĂŒr automatisierte Fahrzeuge
In den vergangenen Jahren hat sich insbesondere in der Robotik eine Vielzahl von alternativen Navigationsverfahren etabliert, die bei temporĂ€rem GNSS-Ausfall oder bspw. im Innenbereich Anwendung finden. Hierzu gehören insbesondere die Verfahren visuelle Odometrie und Simultaneous Localization And Mapping (SLAM), bei denen eine Bewegungsbestimmung bzw. Positionierung relativ zu Umgebungsmessungen mit Lidar, Radar, Kamera oder weiteren Sensoren erfolgt. Das DLR-Institut fĂŒr Verkehrssystemtechnik untersucht derartige Verfahren fĂŒr das automatisierte Fahren, wobei eine umfangreich ausgestattete Fahrzeugflotte zur VerfĂŒgung steht. Der Beitrag gibt einen Ăberblick ĂŒber die Thematik, zeigt Versuchsergebnisse, Grenzen und Herausforderungen (u.a. Fehlerakkumulation, Verhalten in dynamischen Umgebungen) und geht auf Anwendungsmöglichkeiten im Verkehrssektor ein, wie Fahrten im Innenbereich, z.B. in ParkhĂ€usern
- âŠ